非光滑优化:研究并求解目标函数或约束条件不可导、带尖点/折点(例如含绝对值、最大值、L1 正则、分段函数等)的优化问题的方法与理论。常见工具包括次梯度(subgradient)、近端方法(proximal methods)、束方法(bundle methods)等。(也常与“凸但不可微”或“一般非凸不可微”问题相关。)
/ˌnɒnˈsmuːð ˌɒptɪmaɪˈzeɪʃən/(BrE)
/ˌnɑːnˈsmuːð ˌɑːptəməˈzeɪʃən/(AmE)
Nonsmooth optimization is useful when the loss includes an absolute value.
当损失函数包含绝对值时,非光滑优化很有用。
In sparse learning, L1 regularization leads to a nonsmooth optimization problem that is often solved with proximal gradient methods.
在稀疏学习中,L1 正则会带来一个非光滑优化问题,通常用近端梯度法来求解。
nonsmooth 由 non-(“不、非”)+ smooth(“光滑的”)构成,在数学语境中常指函数图像不“平滑”,即在某些点不可微或导数不连续。optimization 源自 “optimum”(最优),指寻找最佳解的过程。“nonsmooth optimization”合起来就是“在不可微/不平滑情形下的最优化”。